Inlägg

Inlägg som flexm har skrivit i forumet
Av flexm
Skrivet av DevilsDad:

Hade varit kul att se hur prestandan hade varit med 5800x3d och 1070. Det hade gett ännu mer inblick i hur cpu och gpu interagerar, och även hur olika spel belastar komponenterna olika.

I övrigt håller jag med om att det var en bra och inteessant artikel!

Det hade sannolikt inte sagt så mycket i och med att i alla testerna gick frameraten upp rejält när enbart GPUn byttes, vilket visar att det var 1070n som flaskhalsade tidigare. Alltså en snabbare CPU hade fått vänta lika länge på att GPUn skulle bli klar som den gamla, och du hade fått i princip samma framerate som ouppgraderat.
Kanske om dom testade några riktigt gamla spel som inte paralelliserade något kunde man sett några spännande sifror

Av flexm
Skrivet av Ryzer:

Vad händer med det? Vad kan felet vara iom att det ständigt kommer tillbaks?

Om vi antar att det är samma kort hela tiden så skrev jag om min upplevelse här #20474449, som axxt skriver så handlar det om spoltjut.

Av flexm
Skrivet av Pantburk:

Produkt: MSI GeForce RTX 4080 Super 16GB VENTUS 3X OC - Fyndvara
Länk: https://www.netonnet.se/art/outlet/fyndvaror-datorkomponenter...
Kategori: Grafikkort
Prisjakt: https://www.prisjakt.nu/produkt.php?p=13236451
Pris: 9790kr

@JoeSun är det samma samma kort igen tro?
Nu tillbaka med ännu lägre pris än de tidigare vändorna, börjar NetOnNet ge upp!?

Av flexm
Skrivet av Slimhunk:

Tack för förklaringen, jag har aldrig använt ett förut utan bara läst/hört att vissa kort behöver mjukvara/drivrutiner för att fungera. Om även datorn du "spelar in" från behöver det förstår jag inte. Då HDMI-porten fungerar menar du att jag kan ta vilket HDMI video-capture card som helst trots begränsat OS?

Japp du har förstått rätt, ett videocapture-kort ser ut som en "skärm" för enheten som ska spelas in, det är därför det fungerar på t.ex. konsoller, mobiltelefoner osv. Dom tror att dom skickar ut bilden till en vanlig display av något slag helt enkelt. Så det bör fungera exakt likadant för den nedlåsta datorn.
Enheten som sköter inspelningen behöver givetvis mjukvara och drivisar osv beroende på vilket kort du skaffat för inspelning.

(Det enda som kan bli konstigt är egentligen om du gör något som outputtar en signal med HDCP och capture-kortet respekterar detta eller inte är kompatibelt, alltså en gammal teknik för att förhindra piratkopiering av typ bluerayfilmer osv som kan hänga ihop med HDMI-signalen, men det känns ganska orimligt att det skulle vara relevant för dig.)

Kan tyvär inte säga något hjälpsamt om exakt vad som är en bra deal att köpa, då det var 10+ år sedan jag sysslade med något sånt här senast D:

Av flexm
Skrivet av diizzy:

Tror ni missar lite vad TS menar, nog snarare att det finns ingen möjlighet att installera mjukvara på "klient"-datorn.

Asså hallå vadå "ni"
Din länkade dongel är ju exakt samma sak som jag säger, bara att det är en usb-dongel istället för ett kort.

Edit: Men ja, behöver man inte passthroughen så är det ju ännu smidigare med bara en dongel in i en laptop än att behöva sätta in ett faktiskt videocapture kort i en stationär dator, så det är ett bra tips!

Av flexm
Skrivet av Slimhunk:

Vilket video-capture card skulle fungera som kan sköta att inspelning och överföring till en annan dator själv?

Känns lite osäkert hur du menar här med "inspelning och överföring". Borde det inte vara så att videocapture kortet sitter i "den andra datorn", och du kopplar skärmsladden från den nedlåsta datorn in i detta kort, och spelar in videon direkt där? (och sen passthrough från det tillbaka till en skärm om du av någon anledning vill se bilden också på skärmen förutom i inspelningsmjukvaran på "andra datorn").

Isf borde vilket kort som helst fungera som har stöd för den upplösning och kontakt som behövs?

Av flexm
Skrivet av friArsenik:

Då kanske jag misstolkade hur detta ankommer att tillämpas.

Det kan väl vara precis som du säger, men tänk om det skulle behövas ett litet rad i början av websidans kod:
Typ:
Ej Print Screen; [upphovsrätts skydd]

Och då kan man inte göra det.
Det beror på implementationen.

Det har du fan rätt i, det vore illa. Men alltså, tänk om implementationen var sådan att det fanns någon slags hårdvarukoppling också så man får en elstöt om man ens försöker ta en screenshot någonsin! Shit det vore ju ännu mera läskigt!!!

Av flexm
Skrivet av Ozzed:

Jo absolut, men återigen så borde väl sagda företag i sådana fall löst de problemen redan innan den första anställda började jobba där?

Det kan ju hända att nya företag startar i framtiden, där detta skulle kunna vara en del av processen att lösa det redan innan den första anställda börjar jobba där?

---
Edit:
Hela den här grejen är ju en icke-nyhet att enterprise/business grejor sysslar med enterprise/business grejer, sen klickar folk på artikeln och skriver kommentarer utan något större sammanhang och så får vi sådana här konstiga "icke-diskussioner" där folk bara "Varför skulle någon vilja ha specifik-konstig-niche-business-funktionalitet".

Av flexm
Skrivet av JoeSun:

Det här måste ju vara samma grafikkort som köps och sedan returneras? Det är alltså olika poster med olika datum som är citerade.
Absolut ingen kritik mot dig @Pantburk. Är själv på jakt efter ett 4080 Super, så jag är tacksam för alla tips

Dom senaste två posterna lär vara samma kort iaf, jag köpte det som Pantburk tipsade om för en vecka sen. Fick det och testade i helgen, i Rocket League var det väldigt mycket extrastörig högfrekvent coil-whine när FPS:en drog iväg över ~180, och vid typ 360fps som var målet så var det total huvudvärksnivå på ljudet.
Testade lite Cyberpunk också för att se hur illa det var vid mera "normala laster", som väntat var det inte lika illa som vid hög fps, men fortfarande värre whine än något annat grafikkort jag någonsin ägt.

Så jag lämnade tillbaka det i butik idag vid typ 17:30, och Pantburks scraper-script plockade upp ett identiskt kort kl 18:48.

Av flexm
Skrivet av DevLeader:

Så om Sydkoreaner i deras huvudstad, som jobbar i deras regering, skickar över sina privata dokument till en svensk molntjänst så kan vi lära oss mer oss om deras framgångsrika företag. Detta genom IP information, webbläsar information och operativsystem-information samt vilka tider som personen är vaken. Fast det är väl helt lagligt att läsa sydkoreaners dokument också enligt nuvarande lagar om vi har en molntjänst för dem?

Ahh okej, så du tänker att Sverige bör utveckla två olika molntjänster, vi kallar dom tjänst A och B:

A) Hög säkerhet riktad till våra egna medborgare, har starkt skydd som inte tillåter operatörer, myndigheter osv att läsa människors privata data, utan enbart personerna i fråga kan avkryptera sin egen information.

B) En slags honeypot för utländska medborgare, som låtsas vara tjänst A men operatören, staten, säkerhetsorgan etc kan gå in och lagligt ta del av allas data i hemlighet, och inte bara säkerhetsdata men också företagsinformation som bonus!

Eller tänker du att för tjänsten A behöver vi också göra det tillgängligt för staten etc att gå in och läsa användarnas data, för rikets säkerhet liksom?

Hur som helst, väldigt slug och smart plan!

Av flexm
Skrivet av DevLeader:

Ifall t.ex. Kina och Nordkorea lyckas ta över Sydkorea och Samsungs datorer så kan vi hamna i en sämre situation än om vi hade alla våra filer i Sverige. Det är lite som att leva på bidrag att låta utländska företag stå för molntjänster istället för att leva med sina egna molntjänster dessutom.

Det var den här delen jag tyckte lät spännande, och gärna hör mer av dina tankar omkring:

Skrivet av DevLeader:

Att ha en underrättelse om USA:s och Sydkoreas folk är otroligt viktigt om vi ska lyckas placera en svensk molntjänst för deras folk.

Av flexm
Skrivet av DevLeader:

Att ha en underrättelse om USA:s och Sydkoreas folk är otroligt viktigt om vi ska lyckas placera en svensk molntjänst för deras folk.

Spännande! Jag skulle jättegärna höra mer av dina tankar om detta, berätta!

Av flexm

WQHD är ju 33% fler pixlar än QHD, hur men mycket mer minne det kräver varierar ju från spel till spel så svårt att säga om det pushar dig över någon gräns. Men som tumregel kan man säga att om du är GPU-flaskhalsad så blir det ca 33% sämre prestanda i ultrawide (är det cpun som flaskar så kan det vara så att det inte blir någon prestandaskillnad alls såklart).

Jag själv går lite mot strömmen här i tråden och säger "kanske" på om ultrawide är ett bra val. Jag körde 21:9 1440p i typ ett år innan jag gick tillbaka till 16:9. Spel var gött men det var själva windows-upplevelsen och att jobba på den som var sjukt o-nice.

21:9 är inte brett nog att byta bort två vanliga 16:9 skärmar, men det är brett nog att det blir ergonomiskt omöjligt att ha en extra skärm bredvid som man faktiskt jobbar på (alltså inte bara har som discord/spotify/trash).
Så om du är van vid att köra en multimonitor setup säger jag skippa helt 21:9, men om inte så kör hårt!

Av flexm

Om det stämmer som du säger att du faktiskt kan få 120hz i windows, så kan det fungera att använda "Custom Resolution Utility" (CRU) för att "ta bort" stödet för alla 60hz upplösningar och på så vis tvinga spelen kvar i 120hz.
Det är dock förhållandevis oanvändarvänligt och lite otydligt hur exakt man bör använda det, och gör du fel kan det bli en del störiga safe-mode-aktiga aktiviteter för att återställa bilden. Så ymmv, på egen risk osv.

Edit: För att förtydliga ang Laxpuddings kommentar här under, det som CRU gör är alltså att skapa EDID overrides i windows-registret som används istället för det som bildskärmen rapporterar.

Av flexm

Kör du med gsync aktiverat?
Jag upplevde jätteskumma fps-drops i Apex för några år sen när jag hade gsync på, alltså gick från 120+ fps ned till typ 14 och stannade där några sekunder för att sedan poppa upp igen. Dropsen försvann helt när jag stängde av gsync i nvidia kontrollpanelen. Det är säkert något annat som spökar, men kan ju vara värt att testa att deaktivera iaf och se om det gör någon skillnad.

Av flexm

Ja, det stämmer att Minecraft är Quake.
Faktiskt är det så att dom flesta sakerna som är helt olika saker egentligen är samma saker, men man ger dom olika namn så det ska kännas som det finns flera olika saker trots att allting är samma saker.

Av flexm
Skrivet av Swedishchef_90:

Alla frames är fake, dlss/DLAA är bara ett en möjlighet att slippa få stora fps drops.

Jag menar inte att diskutera semantics kring vad man kallar en gpu-genererad frame jämfört med en "vanlig" frame, eller hur folk känner inför dessa då det är helt subjektivt.

Det enda jag försöker påpeka är att det är ett felaktigt påstående att säga att "en snabbare GPU som kan köra högre inställningar kommer att avlasta CPUn"

Av flexm
Skrivet av Swedishchef_90:

Jag hade för mig att dlss hjälper att driva ned render time genom AI bilderna avlastar cpu. Läste det här på forumet senaste 10 dagarna som en quote men hittar inte texten...

Jag vet själv i WZ att för lite ram dödar det spelet också

Om du pratar om dlss-frame-generation så får du ju mer FPS genom att grafikkortet predictar-fram extra bilder, det påverkar dock inte hur lång tid det tar för CPUn att jobba fram dom faktiskt riktiga bildrutorna. Att gå från tex 60fps utan frame gen till 120fps med frame gen ger ingen cpu-avlastning.

Men jag antar att om man skulle cappa frameraten och istället för att köra 60 riktiga frames i sekunden, till att köra 30 riktiga frames och 30 dlss-påhittade frames, så stämmer det ju faktiskt tekniskt att gpu:n har "avlastat" cpun (känns iofs lite osannolikt att OP är ute efter ai-frames för att köra competitive dock, men vem vet).

Ja alltså, för lite ram dödar framerate i alla spel, bara olika var gränsen går för "för lite", har dock inget att göra med att gpu skulle "avlasta" cpu.

Av flexm
Skrivet av Swedishchef_90:

CPUn kan ju dock bottleneckas av ram och ssd, sen att byta gpu och få högre upplösning/grafik borde lösa hans problem.
12ms cpu borde ju ge runt 130fps (vilket han nämner) alternativt kör han igång dlss och låter gpu hjälpa cpu med bottlenecken

Det är ju en slags derail från tråden här, givetvis påverkar ram och andra komponenter hur lång tid det tar för cpun att göra framesen klara för gpun att rendera, men all den tiden hamnar ju under kategorin "cpu time" när du profilear spelet så att säga.

Jag förstår inte vilken del av renderingen det är som du menar görs på CPUn vid "low" settings, men av GPUn på "high", låter möjligtvis som något från en 15år gammal bethesda motor typ, vet inte vad det skulle kunna vara för del i en modernare spelmotor som funkar så?

Ang DLSS så låter det som du är förvirrad, om han har 12ms cpu tid, alltså 83fps och 5ms gpu tid (potentiellt 200fps om nu inte cpu-tiden bottleneckade), så kan ju DLSS aldrig sänka cpu tiden, det enda som händer med dlss blir ju att du blir kvar på 83fps men gpu tiden blir lägre.

Av flexm
Skrivet av Swedishchef_90:

Då en kraftigare gpu skulle göra att han inte behöver körs allt på low? Då flyttas belastningen till gpu

Njae, är inte så det fungerar, det är försvinnande få effekter/inställningar som kan flyttas mellan gpu/cpu.
CPUn behöver göra samma jobb för att köra spellogiken, ljud förbereda framesen för rendering osv oavsett om du har typ extra-snygg antaaliassing och högupplösta skuggor på eller inte. Om något så kan cpu-draw-tiden gå upp vid högre grafiksettings om det blir fler drawcalls pga längre viewdistance osv.

I exemplet cputid på 12ms och gputid på 5ms, om han vill "avlasta" cpun så måste han öka grafikinställningarna tills gpu-tiden blir högre än 12ms, så gpun flaskhalsar iställlet för cpun, då får cpun jobba samma 12ms för att sedan sitta och vänta på att gpun ska bli klar med framen, blir ju snyggare och lägre procentuell load på cpun, men kan inte bli snabbare.